论文代写-英语日语韩语德语俄语法语
论文翻译-英语日语韩语德语俄语法语
论文修改-英语日语韩语德语俄语法语
代写作业代考试题考卷-英语日语韩语德语俄语法语
作文报告申请书文章等代写-英语日语韩语德语俄语法语
研究计划书代写-英语日语韩语德语俄语法语
西班牙语意大利语论文代写翻译修改
论文发表-英语日语韩语德语俄语法语
英语 English
日语 日本語
韩语한국의
法语 Français
德语 Deutsch
俄语 Pусский
西语 Español
意语 Italiano
·英语论文 ·日语论文
·韩语论文 ·德语论文
·法语论文 ·俄语论文

名称:智尚工作室
电话:0760-86388801
传真:0760-85885119
手机(微信):13380876598
地址:广东中山市学院路1号
网址:www.zsfy.org
E-Mail:cjpd
@vip.163.com
商务QQ:875870576
微信二维码

业务联系
成功案例
Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz
添加时间: 2018-10-15 14:37:14 来源: 作者: 点击数:259

Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz

Inhaltsverzeichnis

1           Einleitung   

2           Autonome mobile Roboter

2.1  Was ist ein autonomer mobiler Roboter?

2.2  Warum und wofür werden Sie gebraucht?

2.3  Geschichte der autonomen mobilen Robotik

  2.4 Andere autonome mobile Roboter

3            Hauptteile und Schlüsseltechnologien

3.1  Sensoren und Aktoren

3.1.1        Abstandssensoren

3.1.1.1  Bumper

3.1.1.2  Ultraschall

3.1.1.3  Infrarot

3.1.1.4  Laser

3.1.1.4.1        2D-Laserscanner

3.1.1.4.2        3D-Laserscanner

3.1.2        Sensoren für Dead-Reckoning

3.1.3        Kamera

3.1.4        Berührungssensoren

3.1.5        Sensorsignale sind interpretationsbedürftig

3.1.6        Aktoren

3.1.6.1  Elektrisch, pneumatisch, hydraulisch

3.1.6.2  Nicht-holonomische und holonomische Bewegung

3.1.7        Datenfusion der Multisensoren

4           Navigation

4.1  Selbstlokalisierung

4.1.1        Globale Selbstlokalisierung

4.1.2        Lokale Selbstlokalisierung

4.2  Weltmodelle für Navigation

4.2.1        Geometrische Weltmodelle

4.2.2        Topologische Weltmodelle

4.2.3        Probabilistische Weltmodelle

5           Analyse von Steuerungsarchitekturen

5.1   Prozessdatenverarbeitung

5.2   Verhaltensbasierte Steuerungsarchitekturen

6   Zusammenfassung

Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz

AbstractIn dieser Arbeit werden viele Informationen über autonome mobile Roboter ausführlich vorgestellt, besonders über die Informationen über die Anforderungen an Roboter für den autonomen mobilen Einsatz. Durch die Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz kann man ein umfassendes, völlig neues und deutliches Verständnis für die Anforderungen an Roboter für den autonomen mobilen Einsatz haben. Das ist auch das Ziel dieser Arbeit. z,B Man kann die Sensoren und Aktoren, Hauptteile und Schlüsseltechnologien für autonome mobile Roboter kennen. Zudem werden viele Beispiele für autonome mobile Roboter vorgestellt. Man kann auch durch diese Arbeit die Geschichte über autonome mobile Roboter erkennen. Durch die Analyse der Haupteile über autonome mobile Roboter kann man die Anforderungen an autonome mobile Roboter klar verstehen. Mit vielen Beispielen bietet diese Arbeit viele nützliche Informationen über autonome mobile Roboter an. Diese Vorstellung mit den Beispielen ist die Methode dieser Analyse in dieser Arbeit.  

Schlüsselwörter: autonome mobile Roboter, Hauptteile und Schlüsseltechnologien, Anforderungen, Sensoren

1          Einleitung

Diese Arbeit befasst sich mit den Anforderungen an Roboter für den autonomen mobilen Einsatz. Autonome mobile Roboter stellen eine Verbindung der Disziplinen aus Maschinenbau, Elektrotechnik und Informatik dar. Autonome mobile Roboter bewegen sich frei durch ihre Umwelt. Über die folgende Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz erhalten wir ein umfassendes, völlig neues und deutliches Verständnis für den mobilen Einsatz von Robotern.

Diese Arbeit wird in 6 Teilen unterteilt. Zuerst ist die Einleitung. Dann werden die Teile von Autonome mobile Roboter, Hauptteile und Schlüsseltechnologien, Navigation,        Analyse von Steuerungsarchitekturen einzeln vorgestellt. Zum Schluss ist die Zusammenfassung.

Die Hauptteile dieser Arbeit sind die Teile von Hauptteile und Schlüsseltechnologien, Navigation, Analyse von Steuerungsarchitekturen. Diese drei Teile werden ausführlich in dieser Arbeit geschrieben.

Durch die Analyse der Anforderungen an Roboter für den autonomen mobilen Einsatz kann man zuerst wissen, was ist ein autonomer mobiler Roboter? Dann kann man auch wissen, was ist die Haupteile von einem autonomen mobilen Roboter? Wie die Anforderungen an Roboter für den autonomen mobilen Einsatz sind? Wie ist die verhaltensbasierte Architektur? Wie ist die Navigation eines autonomen und mobilen Roboters? Für eine Reihe von Fragen über autonome mobile Roboter kann man in dieser Arbeit eine Antwort bekommen.

Diese Arbeit richtet sich an die Anforderungen an autonome mobile Roboter, die nicht nur für allgemeine Arbeit und auch für den Industriegebrauch sehr wichtig und hilfreich sind.

Durch diese Arbeit kann man einen umfassenden und deutlichen Blick auf die Anforderungen an Roboter für den autonomen mobilen Einsatz haben. z,B. Mann kann die Steuerungsarchitekturen, die Sensoren und Aktoren und die      Lokale und globale Selbst, lokalisierung eines autonomen und mobilen Roboters besserer als früher verstehen usw. Auch man kann die Information über die Weltmodelle für Navigation gut lernen. Dieser Folgende Teil ist Autonome mobile Roboter.

2          Autonome mobile Roboter

2.1    Was ist ein autonomer mobiler Roboter?

Immer bezeichnet man die Roboter als autonome mobile Roboter, die sich in ihrer Umgebung selbständig bewegen und agieren können. Aber für die Autonomie gibt es jetzt verschiedene Abstufungen. Das heißt, dass die Unabhängigkeit des Roboters nicht gleich ist. Roboter sind stationäre oder mobile Maschinen, die nach einem bestimmten Programm festgelegte Aufgaben erfüllen.

Die freie autonome Beweglichkeit eines autonomen mobilen Roboters hat sowohl Vorteile aber auch Nachteile. Es ist vorteilhaft, dass die Roboter für Aufgaben eingesetzt werden können, die Vorwärtsbewegung erfordern (wie z.B. Transport-,Überwachungs-, Inspektions- oder Reinigungsaufgaben), da sie sich für diese Aufgaben selbständig positionieren können. Autonome mobile Roboter eignen sich deshalb besonders gut für den Einsatz in weitläufigen Umgebungen, die für Menschen entweder unzugänglich oder gefährlich sind. Aber es gibt auch Nachteile. Es ist andererseits nachteilhaft, dass beim Einsatz insemi-strukturierten Umgebungen, die nicht speziell für den Betrieb mobiler Roboter angepasst wurden, unvorhergesehene Ereignisse, Veränderungen und Unsicherheiten vorkommen. Die Steuerung autonomer mobiler Roboter muss dies berücksichtigen und mit Rauschen, unvorhersagbaren Ereignissen und Veränderungen umgehen können.

Die Mobilität bedeutet im Bereich der autonomen mobilen Roboter, dass autonome mobile Roboter nicht fest an einer bestimmten Stelle montiert ist, sondern sich mehr oder weniger frei in einer bestimmten Umgebung bewegen kann. Die Art des Terrains bestimmt hierbei die notwendigen Aktoren zur Fortbewegung. Während sich beispielsweise Räder für eher ebenes Gelände eignen, sind für unebenes Gelände meist Ketten oder Beine (s. Laufroboter) von Vorteil. Das Wort von „Autonom“ hat seinen Ursprung in zwei griechischen Wörtern: „autos“ ist griechisch für selbst und „nomos“ für Gesetz. Es bedeutet also „eigengesetzlich machend“. Die Autonomie eines Roboters lässt sich in verschiedenen Graden realisieren. Beispielsweise sind Roboter, die zwar selbständig ihre Umgebung erkunden und die ihnen gestellten Aufgaben abarbeiten, aber immer wieder zu einer Ladestation zurückkehren müssen, nicht völlig autonom. Der notwendige Grad an Autonomie, der für einen bestimmten Roboter notwendig ist, lässt sich aus der Spezifikation der zu erledigenden Aufgaben bestimmen. Deshalb bedeutet das Wort von Autonom, dass der Roboter ohne externe Unterstützung seiner Umgebung funktionieren kann. Autonomist Synonym von Unabhängigkeit, Selbständigkeit, Entscheidungsfreiheit, usw.

Ähnlich wie die ,,Intelligenz kann auch das Verhalten eines Roboters nicht unabhängig von seiner Umgebung und der von ihm auszuführenden Aufgabe betrachtet werden. Roboter, Aufgabe und Umgebung sind voneinander abhängig und beeinflussen sich gegenseitig wie die Folgende:

Abbildung 1:

2.2    Warum und wofür werden Sie gebraucht?

Weil autonome mobile Roboter sich autonom in ihrer Umgebung umherbewegen können, sind autonome mobile Roboter die ideale Werkzeuge für die Aufgaben in den Bereichen Transport, Exploration, Überwachung, und Inspektion usw. 

Für autonome mobile Roboter gibt es viele Einsatzbereiche. Vor allem sind die zwei Aspekte der Überwachung und der Inspektion sehr wichtige Verwendungszwecke für autonome mobile Roboter. In diesen zwei Verwendungszwecken sind besonders die guten sensorische Fähigkeiten der autonomen mobilen Roboter sehr wichtig und sehr gefragt. Für Rohrsysteme, Kanalsysteme, kontaminierte Gebiete und Anwendungen der Raumfahrt sind autonome mobile Roboter auch sehr hilfreich. Für den flexiblen Transport der Güter spielen autonome mobile Roboter auch eine wichtige Rolle. Es gibt noch viele potentielle Verwendungszwecke für autonome mobile Roboter hier mögliche Beispiele aufführen. , wo auch die drahtlose Verbindung eine wichtige Rolle spielt, diesen Teilbereich nennt man Telerobotik.

Für die Gebiete der künstlichen Intelligenz, der kognitiven Wissenschaften und der Psychologie können autonome mobile Roboter auch eine wichtige Rolle spielen. Autonome mobile Roboter können Hypothesen über intelligentes Verhalten, Wahrnehmung und Kognition überprüfen und verbessern.

Deshalb sind autonome mobile Roboter nicht nur für Industrie, Landwirtschaft, Medizinische Technik, Dienstleistung sehr wichtig, sondern auch für Staatssicherheit und Landesverteidigung Autonome mobile Roboter erhalten derzeit eine weltweite Aufmerksamkeit. 

2.3    Geschichte der autonomen mobilen Robotik

Meistens verbinden die Menschen künstliche Intelligenz und autonome mobile Robotik eng miteinander. Schon vor der Dartmouth College Konferenz im Jahre 1956, als der Begriff ,,künstliche Intelligenz geprägt wurde, war man sich dessen bewußt, daß man mobile Roboter interessante Aufgaben ausführen und lernen lassen konnte.

In den frühen 1950er Jahren hat William Grey Walter zwei mobile Roboter entwickelt. Er erreichte Veränderung der Ladung eines Kondensators, der das Verhalten des Roboters steuerte.  

Abbildung 2: Rekonstitution vom Tortoise von Grey Walter

Nils Nilsson entwickelte 1969 in Stanford den mobilen Roboter SHAKEY. Dieser Roboter verfügte über einen visuellen Entfernungsmesser, eine Kamera und binäre Berührungssensoren und war über Funk mit einem DEC PDP 10 Computer verbunden. SHAKEY konnte Aufgaben ausführen wie Hindernisausweichen und Objektmanipulation, allerdings in einer sehr strukturierten Umgebung.

Abbildung 3: Shakey

ln den 1970er Jahren wurde der JPL ROVER für Planetenexploration am Jet Propulsion Laboratory in Pasadena entwickelt. Der Roboter verwendete eine TV-Kamera, einen Laserentfernungsmesser und Berührungssensoren, um seine Umgebung in die Kategorien ,,navigierbar”, ,,nicht navigierbar” und ,,unbekannt” einzuteilen und benutzte einen Trägheitskompaß mit Koppelnavigation.

Ende der 1970er Jahre entwickelte Hans Moravec in Stanford den mobilen Roboter CART. CART nahm von einem bestimmten Ort aus neun Kamerabilder auf, erstellte daraus ein zweidimensionales Weltmodell, bewegte sich einen Meter weiter, wiederholte den Vorgang, und so weiter. Um die neun Bilder einer Position zu verarbeiten, brauchte er jeweils 15 Minuten: 5 Minuten für die Digitalisierung der 9 Photos; 5 Minuten für die Grobreduktion der Bilder, wobei Hindernisse als Kreise dargestellt wurden; und 5 Minuten zur ¨Uberarbeitung des Weltmodells und für die Routenplanung. CART war in der Lage, Hindernissen erfolgreich auszuweichen, wenn auch sehr langsam. Er hatte jedoch Schwierigkeiten, seine eigene Position korrekt zu bestimmen und kontrastarme Hindernisse zu identifizieren.

Abbildung 4: Stanford Cart

In den späten 1970er Jahren wurde HILARE als eines der ersten europäischen Projekte in der mobilen Robotik bei LAAS in Toulouse entwickelt. HILARE verwendete digitale Bildverarbeitung, Laserentfernungsmesser und Ultraschallsensoren für die Navigation. Die Steuerungsstrategie beruhte auf einer langsamen Szenenanalyse, die alle 10 Sekunden ausgeführt wurde, und einer parallelen, schnelleren dynamischen Bildverarbeitung, die alle 20 Zentimeter entlang der Route durchgeführt wurde. Hindernisse in der unmittelbaren Umgebung wurden mittels Ultraschallsensoren ausfindig gemacht und umfahren. Navigation und Routenplanung wurden durch eine zweidimensionale polygone Raumdarstellung und ein globales Koordinatensystem erreicht.

2.4 Andere autonome mobile Roboter

Hier wird eine kurze Übersicht über einige andere autonome mobile Roboter gegeben. Dabei handelt es sich um Roboter, die für Umgebungen entwickelt wurden, die den hier vorgestellten dynamischen Industrie- und Büroumgebungen entsprechen oder zumindest ähnlich sind. Die Aufzählung ist nur eine kleine Auswahl, enthält aber wichtige und erfolgreiche Repräsentanten verschiedener Ansätze für Steuerungsarchitekturen und Navigation.

Rhino, Minerva, Carl, Flo und Pearl, Albert

Rhino ist wohl einer der bekanntesten autonomen mobilen Roboter in Deutschland. Er wurde in Zusammenarbeit der Carnegie Mellon Universität mit der Universität Bonn entwickelt. Bekannt wurde er vor allem durch den Betrieb als Tour-Guide im Deutschen Museum in Bonn, und das auch über Deutschland hinaus. Dort führte er Besucher durch das Museum. Rhino ist ein mobiler Roboter der Bauart B21 der Firma Real World Interface (RWI), ausgestattet mit Ultraschall-, Laser-, und Infrarotsensoren, sowie Bumpern und einer Stereokamera. Der B21 hat eine runde, zylindrische Form und kann sich auf der Stelle drehen. Die Kinematik ist somit holonomisch.

Der Navigationssoftware liegen drei wichtige Konzepte zugrunde. Erstens das TCX Kommunikationssystem, das die Kommunikation zwischen den einzelnen Steuerungssoftwaremodulen organisiert. Zweitens der„Dynamic Window Approach“, welcher die Kollisionsvermeidung und kinematische Randbedingungen mit zielorientiertem Fahren verbindet. Und drittens die Markov-Lokalisation, ein probabilistisches Verfahren zur geometrischen Positionsbestimmung des Roboters innerhalb einer teilweise bekannten Umgebung mittels Sensordaten.

Ein weiterer Roboter dieser Familie namens Carl ist am Lehrstuhl fr Informatik 5 in Betrieb. Dort wird untersucht, wie sich deliberative Ansätze wie Aktionsbeschreibungssprachen und plausibles Schließen sowie effizientes Schließen, auf bestehende Navigationssoftware aufsetzen lassen.

Minerva ist der Nachfolger von Rhino und unterscheidet sich einerseits durch das äußere Erscheinungsbild und andererseits durch Softwareverfeinerungen von Rhino. Der Roboter operierte bereits als Museumsführer im Smithsonian’s National Museum of American History. Minerva hat ein angedeutetes Gesicht, durch das die Interaktion mit Menschen intuitiver gestaltet werden soll. Außerdem wurde der Rechenaufwand für die Markov-Lokalisierung durch einen so genannten „Monte Carlo“-Ansatz verringert, und es wurde eine Strategie namens „Costal Navigation“ entwickelt, welche bei der Pfadauswahl die Qualität der Lokalisierung bercksichtigt, so dass Pfade gewählt werden, auf denen eine stabilere Lokalisierung möglich ist.

Abbildung 5 Der Roboter Minerva (Carnegie Mellon University).

Unter der Leitung von Wolfram Burgard wird an der Weiterentwicklung der Ansätze gearbeitet. Plattform ist hier neben anderen wiederum ein Roboter vom Typ B21 mit Namen Albert. Unter Anderem soll auch die Kooperation mehrerer Roboter untersucht werden.

An weiteren Nachfolgemodellen wird in letzter Zeit an der Carnegie Mellon University in Zusammenarbeit mit der University of Pittsburgh im Rahmen des Projektes Nursebot“ gearbeitet. Zu nennen sind die Roboter Flo“ und Pearl“. Der Fokus liegt hier auf der Anwendung der Roboter als persönliche Service Roboter für hilfsbedürftige Menschen. Dabei spielt die einfache Interaktion der Menschen mit den Robotern eine Schlüsselrolle.

Xavier und Amelia Xavier wurde an der Carnegie Mellon University parallel zu Rhino und Minerva entwickelt. Im Gegensatz zu Rhino und Minerva beruht die Steuerung dieses Roboters nicht auf einem geometrischen, sondern auf einem topologischen Modell der Umwelt. Das Verfahren zur Kollisionsvermei dung, die Curvature-Velocity Method, ist dem Dynamic Window Approach jedoch ähnlich. Die Einsatzumgebung ist als Graph aus Korridoren, Kreuzungen und T¨uren modelliert. Zur Planung wird ein Partially Observable Markov Decision Process (POMDP) benutzt, wodurch Unsicherheiten bzgl. der aktuellen, topologischen Position des Roboters, der Aktionen des Roboters und der Zustände der T¨uren und Durchgänge berücksichtigt werden können. Einer der Vorteile dieser Methode ist, dass Pläne bevorzugt werden können, welche evtl. zwar nicht am schnellsten, dafür aber mit größerer Sicherheit zum Ziel führen. Das Gesamtverhalten des Roboters wird dadurch robuster. Nachfolger von Xavier ist Amelia, welcher schneller fährt als Xavier und eine verbesserte Odometrie besitzt.

Abbildung 6: Die Roboter Xavier und Amelia der Carnegie Mellon University.

Hermes

Der Serviceroboter Hermes ist eine Entwicklung der Bundeswehr Universität München. Die Plattform wurde mit der Intention gestaltet, einen menschen ähnlichen Roboter zu konstruieren, um so die Interaktion des Roboters mit Menschen und den Einsatz in Umgebungen, die für Menschen geschaffen sind, zu erleichtern. Hermes bewegt sich mittels eines so genannten Omnidrives, besitzt zwei Arme mit jeweils 6 Freiheitsgraden und einem Zwei-Finger-Greifer sowie einen abknickbaren Oberkörper. Am „ Kopf“ des Roboters befindet sich eine Stereokamera. Der Roboter bewegt sich in einer Umgebung aus Gängen und Räumen und navigiert mit Hilfe seiner Stereokamera. Die Navigation beruht unter Anderem darauf, dass im Kamerabild der Boden eindeutig von den Wänden und anderen Hindernissen unterschieden werden kann. Durch visual servoing“ ist unter Anderem das Andocken an einen Tisch möglich. Ein weiterer Augenmerk der Forschung liegt in diesem Projekt auf der Interaktion mit Menschen, wie unter Anderem der natürlichsprachlichen Steuerung.

Abbildung 7: Die Roboter Hermes der Bundeswehr-Universität Müunchen und Flakey von SRI International.

Helpmate

Der Serviceroboter Helpmate ist vor allem deshalb interessant, weil er sich bereits in der praktischen Anwendung befindet. Inzwischen ist Helpmate über die Firma Pyxis in San Diego kommerziell erhältlich. Helpmate wird als Transportroboter im medizinischen Bereich zum Transport von Medikamenten, Proben und Mahlzeiten eingesetzt. Frühere Versionen von Helpmate lösten das Problem der Lokalisierung durch eine an die Decke gerichtete Kamera, wodurch die Deckenbeleuchtungen als natürliche Landmarken genutzt werden konnten. Inzwischen wurde Helpmate jedoch offensichtlich kommerziell weiterentwickelt. Die verwendeten Methoden sind jedoch nicht zugänglich, da neuere wissenschaftliche Dokumentationen fehlen.

Flakey

Der Roboter Flakey (siehe Abb. 7) und seine Software wurden bei SRI International von Konolige, Saffotty, Gutmann und einigen weiteren Wissenschaftlern entwickelt.

Die oben gewähnte Produkte sind eingie Beispiele für andere autonome mobile Roboter. In den letzten Jahren werden viele Produkte autonomer mobiler Roboter entwickelt. Es spielt eine wichtige Rolle in unserem Leben.

3          Hauptteile und Schlüsseltechnologien

Es gibt einige Hauptteile und Schlüsseltechnologien für autonome mobile Roboter. In diesem Teil werden diese Hauptteile und Schlüsseltechnologien ausführlich gezeigt. z,B. Sensor und Aktor usw.

3.1    Sensoren und Aktoren 

Sensoren dienen zur Erfassung von Eigenschaften der Umgebung und des Roboters selbst. Mit den Sensoren können autonome mobile Roboter die physikalischen Eigenschaften der Umgebung wie Temperatur, Helligkeit, Berührungswiderstand, Gewicht, Größe usw. messen. Ein Sensor empfängt ein physikalisches Signal und reagiert darauf mit einem elektrischen Ausgangssignal.

Abbildung 8: Sensor

Die Sensoren eignen sich für die Messung der Eigenschaften der Umgebung und des autonomen mobilen Roboters selbst. Die Sensoren und Aktoren werden als „intern“ oder „extern“ klassifiziert. Interne Sensoren können die Steuerungssoftware mit Daten über den Zustand des Roboters versorgen. z,B. über den Ladezustand der Batterien. Externe Sensoren können Daten über die Umwelt messen. z,B Art und Entfernung von Hindernissen.  

Um die Entfernung zu Objekten vor einer Kollision zu messen, benutzt man Sensoren zur Entfernungsmessung. Diese gibt es gemäß drei wesentlichen Messprinzipien: Laufzeitmessungen, Phasendifferenzmessung und Triangulation. Unter einer Laufzeitmessung versteht man die Zeitmessung zwischen ausgesendetem Signal und empfangenem Echo. Über Phasendifferenzmessungen können ebenfalls Entfernungen bestimmt werden. Sie sind eine spezielle Form der Laufzeitmessungen. Bei Entfernungsmessung durch Triangulation wird von einer Quelle ein Signal ausgesandt.

Aktoren dienen zur Manipulation des Roboters und der Umgebung. Interne Aktoren können den Zustand des Roboters verändern. Externe Aktoren dienen zur Fortbewegung oder zum Bewegen von Objekten. 

Als interner Aktor wird meistens der Elektromotor in der mobilen Robotik verwendet. Im allgemeinen ist der Elektromotor ein Gleichstrommotor oder ein Schrittmotor. Der Gleichstrommotor ist am einfachsten zu steuern. Der Schrittmotor eignet sich für sehr präzise Bewegungen. Die Elektromotoren sind sauber und einfach zu bedienen, sie können ein richtiges Drehmoment produzieren und können sehr einfach und genau gesteuert werden.

In diesem Teil werden nun einige wichtige Sensoren und Aktoren gezeigt. Zunächst ist die Vorstellung von den Sensoren. Mobile Roboter interagieren mit ihrer Umgebung, die sie mit Sensoren wahrnehmen. Roboterprogrammierung erfordert folglich das Verarbeiten von Sensordaten. Der Aufbau und die Funk von Sensoren haben einen entscheidenden Einfluss auf die Konzeption der Programme. Daher skizziert dieser Teil die gebräuchlichsten Sensoren für mobile Roboter. Die folgende Abbildung 9 ist ein Beispiel für Sensoren auf einer Kurt-Plattform. In diesem Teil werden auch Kamera, Laserscanner, Ultraschallsensor und Infrotsensor und andere gebräuchlichste Sensoren vorgestellt.

Abbildung 9:

3.1.1 Abstandssensoren

Den Abstand Null zu einem soliden Objekt kann ein mobiler Roboter durch Kontaktsensoren oder Stoßleisten erkennen. Mit diesen Abstandssensoren kann man die Daten messen, die sich für die Kollisionsvermeidung und für die Extraktion der Form“ der Umgebung eignen. Die Daten von Abstandssensoren sind auch sehr wichtig und hilfreich für die Lokalisierung des Roboters und seine Navigation. Mit diesen Abstandssensoren kann man die Form der Umgebung und den Abstand dazu exakt erfassen. Diese Sensoren messen die Signallaufzeit, das ist die Zeit, die ein Signal braucht, um sich bis zu einem Objekt in der Umgebung und zurück zu bewegen, woraus der Abstand zum Objekt bestimmt wird. Diese Sensoren sind die aktive Sensoren. Im Gegensatz zu passiven Sensoren, wie zum Beispiel einer Kamera, können diese Abstandssensoren aktiv Signale aussenden. Sie haben aber grundsätzlich auch den Nachteil, z,B. die Sensorik der anderen Roboter zu stören, wenn viele Roboter verwendet werden. Für die Signale gibt es hier nur Schall und elektromagnetische Wellen verschiedener Frequenzen. z,B. Licht (besonders Infrarotlicht und Laserlicht) und Radiowellen (Radar) sowie Schall mit hohen Frequenzen, also Ultraschall.

3.1.1.1 Bumper

Bumper sind nicht mittelbare Kollisionssensoren. Wenn diese Sensoren mit dem Hindernis direkt kontaktieren, werden diese Sensoren dann aktiviert. Die Sicherheit ist sehr wichtig für autonome mobile Roboter. In diesem Aspekt können Bumper eine sehr wichtige Rolle spielen. Mit Bumper können autonome mobile Roboter erkennen, was ist nicht sicher. Wenn diese Sensoren mit dem Hindernis direkt kontaktieren, wird ein Signal dann gesendet, um die Bewegung der autonomen mobilen Roboter zu verhindern.

3.1.1.2 Ultraschall

Wegen der niedrigen Kosten, der einfachen Durchführung und der entwickelten Technologie ist Ultraschallsensor jetzt ein häufig verwendeter Entfernungsmesser in den autonomen mobilen Roboter. Wenn sich die Geschwindigkeit des Ultraschalls in der Luft auf der Temperatur und der Feuchtigkeit bezieht, kommen deshalb die Temperatur und der Feuchtigkeit in der exakten Messung in Frage. In den meisten Fällen sind die Frequenzen der Ultraschallausbreitung in der Luft etwas niedriger, aber die Frequenzen der Ultraschallausbreitung in der Flüssigkeit oder in dem Festkörper sind etwas höher. Die Mindestreichweiten sind von 30 bis 40 cm. Wenn die Hindernisse näher liegen, kann Ultraschallsensor diese Hindernisse nicht sicher erkennen. Typische maximale Reichweiten liegen zwischen 4 und 10 Metern.

Ultraschall-Entfernungsmesser, kurz Ultraschallsensoren genannt, senden zyklisch einen kurzen, hochfrequenten Schallimpuls aus. Dieser verbreitet sich mit Schallgeschwindigkeit in der Luft. Trifft er auf ein Objekt, wird er dort reflektiert und gelangt als Echo zurück zum Ultraschallsensor. Die Zeitspanne zwischen dem Aussenden des Schallimpulses und dem Empfang des Echosignals entspricht der Entfernung zum Objekt, und der Sensor gibt diesen Wert geeignet codiert aus (z.B. als Spannungssignal analog oder digital). Da die Entfernung zum Objekt über eine Schall laufzeitmessung und nicht über eine Intensitätsmessung bestimmt wird, haben Ultraschallsensoren eine ausgezeichnete Hintergrundausblendung. Nahezu alle Materialien, die den Schall reflektieren, werden detektiert – unabhängig z.B. von ihrer Farbe. Selbst glasklare Materialien oder dünne Folien stellen kein Problem dar,auch nicht Staub und Nebel. Handelsübliche Ultraschallsensoren erlauben Entfernungsmessungen bis 10m und können den Messwert mit millimetergenauer Auflösung erfassen. Ultraschallsensoren haben einen Blindbereich,d.h.einen Bereich nahe amSensor, in dem nicht gemessen werden kann, und Messungen finden nur innerhalb eines Öffnungswinkels statt. Abbildung 10 zeigt den Messbereich eines Ultraschallsensors. Die dunkel grauen Bereiche werden mit einem dünnen Rundstab mit definiertem Durchmesser ausgemessen und zeigen den typischen Bereich des Sensors, in dem Abstände zuverlässig bestimmt werden. Um die hellgrauen Bereiche zu erhalten, wird eine Platte definierter Größe von außen in die Schallfelder geführt. Hierbei wird immer der optimale Winkel der Platte zum Sensor eingestellt. Dies ist somit der maximale Erfassungsbereichdes Sensors. Außerhalb der hellgrauen Schallkeulen ist eine Auswertung von UltraschallReflexionen nicht mehr möglich. Abbildung 10 veranschaulicht die Vorgehensweise. Dies zeigt, dass bei Ultraschallsensoren nicht nur die Entfernung zu Objekten, sondern auch der Auftreffwinkel des Schalls und somit die Form der Objekte relevant ist. Dies erschwert die Auswertung der Messwerte.

Abbildung 10: Messbereich eines Ultraschallsensors. Abbildung mit freundlicher Genehmigung der microsonic GmbH, Dortmund.

Aber wegen des größeren Abstrahlwinkels und der schlechten Richtcharakteristik gibt es auch einige Beschränktheiten für Ultraschallsensor.  In diesem Fall werden mehrere Ultraschallsensoren oder andere Sensoren für Ausgleich verwendet. Die Größe der Öffnungswinkel der Ausbreitungskegel üblicher Ultraschallwandler (α = 35◦, Polaroid Sensor) sind einerseits geeignet für Kollisionsvermeidung, andererseits wird aber die genaue Erfassung der Form der Umgebung erschwert, weil die Winkelaufsung dementsprechend grob ist. Bessere Winkelauflösungen wären zwar mit entsprechend höheren Frequenzen im MHz Bereich zu erreichen, mit denen sich ein besser fokussiertes Signal realisieren ließe, Signale dieser hohen Frequenzen werden jedoch stark von der Luft absorbiert und führen deshalb zu deutlich kleineren Reichweiten.

Bei der Bewegung können autonome mobile Roboter zu jeder Zeit vielleicht auf ein Hindernis stoßen. In diesem Fall kann Ultraschallsensor eine wichtige Rolle spielen. Mit dem Ultraschallsensor können autonome mobile Roboter einige nützliche Informationen über Hindernis erkennen. Deshalb ist Ultraschallsensor ein sehr wichtiger Sensor für autonome mobile Roboter.

3.1.1.3 Infrarot

Als Sicherheitssensoren verwenden Roboter oft auch Infrarotsensoren, die ebenfalls ringförmig am angebracht sind. Die Sensoren emmitieren einen modulierten infraroten Lichtimpuls. Wegen der entwickelten Technologie sind Infrarotsensoren (IR) wohl die einfachsten der kontaktlosen Sensoren und werden in der autonomen mobilen Robotik vielfach in der Hinderniserkennung verwendet.

Infrarotsensoren können ein infrarotes Lichtsignal aussenden. Nach der Strahlung der Objekte dieses Lichtsignals kommt eine Reflexion.Wenn die Infrarotsensoren das Lichtsignal empfängt, werden die Daten der Zeitdifferenz von der Aussendung und dem Empfang  mit den Bilder erledigt.

Infrarotsensoren haben gute Entstörung. Wegen des kleineren Abstrahlwinkels sind Infrarotsensoren wichtige Sensoren für die Hindernisvermeidung. Infrarotsensoren haben gute Empfindlichkeit, die für das Erkennen des Hindernises sehr hilfreich ist.

Die Entfernungsgenauigkeit dieser Infrarot-Sensoren liegt bei ca. 30 cm bei Reichweiten um 5 Meter. Im Vergleich zu den Ultraschallsensoren haben Infrarot-Sensoren eine bessere Winkelaudlösung. Es gibt auch einige Hauptgründe für Fehlmessungen, z,B. Absorption, Totalreflektion und Fremdsignale (wie z.B. direktes Sonnenlicht).

3.1.1.4 Laser

Laser-Sensoren sind die Sensoren, die mit der Lasertechnik messen. Im letzten Jahrzehnt haben sich Laserscanner in der mobilen Robotik durchgesetzt, trotz ihres relativ hohen Gewichts, Energiebedarfs und Preises. Laserscanner erlauben akkurate Entfernungsmessungen über größere Distanzen. Deshalb sind Laser-Sensoren neue Werkzeuge für die Messung.

Die Eigenschaften der Laser-Sensoren sind die schnelle Geschwindigkeit, die hohe Präzision usw. Mit diesen Laser-Sensoren können autonome mobile Roboter den Platz messen. Laserentfernungsmesser (auch Laserradar oder Lidar) werden heute häufig in der mobilen Robotik eingesetzt, um die Entfernung, Geschwindigkeit und Beschleunigungsrate von wahrgenommenen Objekten zu messen. Auf dem Roboter ARS sowie auf vielen anderen mobilen Robotern kommt als Laser-Entfernungssensor der PLS (Proximity Laser Scanner) der Firma SICK Optic Electronic Company zum Einsatz. Der Sensor wurde ursprünglich zur Überwachung von gefährlichen Regionen, etwa dem Arbeitsbereich eines Industrieroboters, entwickelt.

Der Scanner hat eine Reichweite von 20 m, eine Winkelauflösung von 0.5 Grad bei einem Scanbereich von 180 Grad in einer Ebene und eine Entfernungsgenauigkeit von 5 cm. Der Sensor kann nach Wahl 360, 180, 90, 45, 30, 15, 10 oder 9 Entfernungswerte pro Scan über die serielle RS 232 Schnittstelle senden.

Der Sensor arbeitet mit Laufzeitmessung des reflektierten Lichts. Eine hochauflösende Uhr misst die Zeit zwischen der Aussendung eines extrem kurzen Lichtimpulses und der Detektion eines Signals durch den Empfänger. Ein Spiegel leitet den Laserstrahl um und rotiert dabei mit einer Frequenz von 12 Hz. Das reflektierte Signal gelangt durch den halbdurchlässigen Spiegel zum Empfänger.

Abbildung 11: 1D Laserabstandsmesssystem Leica Disto.

Sie basieren jeweils auf einem Laserabstandsmesssystem,das einen Laserstrahl in einer Richtung aussendet und über Lichtlaufzeitmessung oder Phasendifferenzmessung die Entfernungbis zumnächsten Objekt in Laufrichtungmisst. Solch ein Basis-Messgerät ist gewissermaßen ein 1D-Laserabstandsmesssystem, weil es die Entfernung zu einem Raumpunkt misst. Sie sind aus dem Heimoder Handwerkerbereichbekannt, s. Abbildung 11.

Dort verwendet man Laserlicht im sichtbaren Spektralbereich, um den Raumpunkt sehen zu können, zu dem gerade die Entfernung gemessen wird. Solche 1D-Sensoren werden auf mobilen Robotern üblicherweise nicht eingesetzt, verdeutlichen aber das Messprinzip.

3.1.1.4.1 2D-Laserscanner

Mobile autonome Roboter müssen durch unbekannte Umgebungen navigieren können, um ihre Aufgaben wie Post austragen oder Staub saugen zu erledigen.

Für diese grundlegenden Navigationsaufgaben standen bisher nur 2D−Laserscanner zur Verfügung, mit denen lediglich eine horizontale Abtastung der Umgebung möglich war. Derartige Systeme sind insbesondere nicht in der Lage, Hindernisse wie Tische oder Objekte mit überstehenden Kanten außerhalb der Scan−Ebene zu erfassen.

2D-Laserscanner erweitern 1D-Laserentfernungssensoren. Zum Erzeugeneiner einzelnen Zeile wird ein Spiegel rotiert,andem der Laserstrahl reflektiert wird. Dadurch entstehen verschiedene Scanbereiche, üblicherweise 90, 180oder 270. Diese Bereiche werden mit Winkelauflösungen von 1, 0.5 oder 0.25 abgetastet. Abbildung 12 zeigt mehrere 2D-Laserscanner-Modelleder Firma Sick, die häufig auf Robotern eingesetzt werden. Diese Scanner wurden als Sicherheitssensoren entwickelt.

Abbildung 12: Laserscanner der Firma Sick. Von links nach rechts: Lms 200, Lms 291, S3000 und S300.

3.1.1.4.2 3D-Laserscanner

3D ist ein aktueller Trend in der Robotik. Die Entwicklung von 3D-Sensorik schreitet

schnell voran. Der 3D−Laserscanner ist als Sensor für autonome mobile Roboter geeignet und basiert auf einem 2D−Scanner, wie sie heute schon üblicherweise auf autonomen Robotern eingesetzt werden.

3D-Laserscanner messen Entfernungen zu Objekten im dreidimensionalen Raum. Dabei wird einem 2D-Laserscanner entweder ein zweiter Drehspiegel hinzugefügt, oder ein kompletter 2D-Scanner wird gedreht.

Abbildung 13: Der 3D−Laserscanner

Abbildung 14: der autonome mobile Roboter ausgestattet mit dem 3D−Laserscanner

Weitere Anwendungsgebiete für den 3D−Laserscanner sind beispielsweise:

Für Facility Managenent Systeme. Diese benötigen aktuelle Informationen über Gebäude. Es wird versucht, ein digitales Gebäudemodell aktuell zu halten.

Für Objektklassifikationssysteme. Es wird versucht, aus den 3D Informationen (Tiefenbildern) Objekte zu klassifizieren.

Für 3D−Überwachungssysteme. Hierbei werden Einrichtungen und Anlagen überwacht, um zum Beispiel den Sicherheitsbereich von Maschinen zu kontrollieren.    

3.1.2      Sensoren für Dead-Reckoning

Dead-Reckoning ist eine Methode zur relativen Positionsbestimmung. Mit allen  Sensoren vom autonomen mobilen Roboter können diese Sensoren für Dead-Reckoning die Bewegungsinformationen vom autonomen mobilen Roboter erfassen. Durch Rekursionsformel können diese Sensoren für Dead-Reckoning die abgeschätzte Position vom autonomen mobilen Roboter bekommen.

Dead-Reckoning ist die laufende näherungsweise Ortsbestimmung eines bewegten Objekts aufgrund von Bewegungsrichtung (Kurs) und Geschwindigkeit (Fahrt). Mit diesen Sensoren für Dead-Reckoning werden kleine Positionsveränderungen des Roboters bestimmt. Dazu werden alle Positionsveränderungen über die Zeit aufsummiert. Diese Sensoren für die Dead-Reckoning sind meistens direkt im Antrieb des Roboters integriert. Geeignete Sensoren (wie Drehgeber) sind an den Antriebsachsen des Roboters platziert. Da auch die Kraftübertragung über die Antriebsachsen erfolgt, besteht hier die Gefahr, dass ein evtl. auftretender Schlupf die Messungen verfälscht. Breite Räder oder Kettenantriebe führen zu Schlupf und somit zu Ungenauigkeiten. Weiche Räder können je nach Belastung den Umfang verändern und deshalb ebenfalls die Odometrie verfälschen. Deshalb werden in manchen Fällen passiv mitlaufende Räder benutzt, um die Positionsveränderung zu messen.

Zudem eignen sich für Dead-Reckoning alle Sensoren, die die Geschwindigkeit des Roboters relativ zur Umwelt messen. Aber diese Sensoren für die Dead-Reckoning sind nicht geeignet für die präzise Messung, die lange Zeit braucht und eine Langstrecke hat.

Dead-Reckoning eignet sich für die inertiale Positionsbestimmung. Für die Erhaltung der Position müssen die Werte der Beschleunigungsmesser zweifach integriert werden. Diese Sensoren für die Dead-Reckoning macht die Positionsbestimmung einfach.

3.1.3      Kamera

Die Eigenschaften des  Sensors Kamera  sind breiter Detektionsbereich, reiche Informationen. Durch Kamera können die dreidimensionale Objekte  zum  zweidimensionalen Plane Image wechseln. Durch die Bildverarbeitung werden die Bilder der Objekte exportiert.

Der Sensor Kamera nimmt einzelne Bilder mit Pixelsensoren auf und stellt sie dem Roboter in digitaler Form zur Verfügung. Ein Pixel oder Bildpunkt bezeichnet das kleinste Element einer Rastergrafik. Der Anschluss von Kameras an den Steuerrechner erfolgt üblicherweise mit Hilfe von Usb oder Firewire. Durch die Algorithmen werden die Form, die Distanz und die Geschwindigkeit und andere nützliche Informationen bekommen. Mit der Bildsequenz eines Kameras werden die Distanz und die Geschwindigkeit der Objekte gemessen. Mit dem SSD Algorithmus wird die Relativverschiebung nach der Bewegungsbilder der Aufnahme gerechnet. Aber bei der Bildverarbeitung brauchen die Methoden wie Schärfen und Merkmalextraktion viel Zeit. Deshalb gibt es vielleich auch einige Einschränkung.  Die Visionentfernungsmessung kann die transparente Hindernisse wie Glas usw. nicht erkennen.

Zudem haben die Lichtstärke und der Rauch einen offensichtlichen Einfluß auf Visionsensoren. Deshalb sind die  Lichtbedingungen sehr wichtig und hilfreich für Visionsensor. Wenn es eine gute Lichtbedingung gibt, können viele schlechte Resultat vermieden werden.

3D-Kameras

Seit einigen Jahren werden 3D-Kamera entwickelt (vgl. Abbildung 15 und folgende). Diese Kameras verwenden zusätzliche Laserdioden, die die Szenemit moduliertem Licht beleuchten.

Abbildung 15: 3D-Kameras: Links und Mitte Swissranger von Csem. Rechts: Pmd-Kamera.

3.1.4  Berührungssensoren

Die Berührungssensoren sind die wichtige Technik für Autonome mobile Roboter.  Die Berührungssensoren können physikalischen Kontakt mit einem Objekt feststellen. Genauer gesagt messen sie eine physikalische Veränderung, die normalerweise durch physikalischen Kontakt mit einem Objekt hervorgerufen wird. Die einfachsten Berührungssensoren sind Mikroschalter oder Fühlersensoren.

Wenn eine Stoßleiste mit einem Objekt in Berührung kommt, wird dadurch ein Mikroschalter geschlossen und schließt einen Stromkreis, was vom Rechner des Roboters erkannt wird.

Andere einfache Berührungssensoren beruhen zum Beispiel auf Dehnungsmeßstreifen oder piezoelektrischen Sensoren.

3.1.5 Sensorsignale sind interpretationsbedürftig

Aus der Beschreibung der verschiedenen Sensoren und Aktoren, die in der mobilen Robotik zur Verfügungstehen, wirddeutlich, daß die Sensoren ausschließlich bestimmte physikalische Eigenschaften wahrnehmen können,die in irgend einem, zunächst vagen, Zusammenhang mit der Information stehen, die der Roboter tatsächlich benötigt.

Es gibt keine ,,Hindernissensoren, nur Mikroschalter, Sonarsensoren, Infrarotsensoren usw., deren Signal die An- oder Abwesenheit eines Objekts angibt. Es ist aber durchaus möglich, daß der Mikroschalter ein Signal auslöst, nur weil der Roboter über eine Bodenwelle fährt; oder ein Sonarsensor meldet ein Hindernis aufgrund von Übersprechen (crosstalk); oder ein Infrarotsensor entdeckt möglicherweise ein Objekt nicht, weil es schwarz ist und deshalb kein Infrarotsignal reektiert.

3.1.6      Aktoren

3.1.6.1 Elektrisch, pneumatisch, hydraulisch

Autonome mobile Roboter sind die Geräte, die die Arbeit automatische machen. Autonome mobile Roboter können nicht nur die menschliche  Anweisung  akzeptieren, sondern auch können nach der vorprogrammierten Programme selbst arbeiten.

Die Aufgabe vom autonomen mobilen Roboter ist, die Arbeiten der Menschen zu ersetzen, z,B. Bereiche vom Bau oder der Herstellung oder einigen gefährlichen Arbeitsbereichen. Der in der mobilen Robotik am häufigsten verwendete Aktorentyp ist der Elektromotor, normalerweise ein Gleichstrommotor oder ein Schrittmotor.

Im Allgemein versteht man Aktoren als die Teile eines Roboters, die physikalische Aktionen durchführen können. Das Antriebsgerät ist eine Vorrichtung, die die Aktoren für Bewegung antreibt. Die Aktoren kann die Bewegung oder die Arbeitssituation zu jeder Zeit erkennen. Diese Detektionsgerät sind sehr hilfreich dafür, dass die Bewegung vom autonomen mobilen Roboter den vorherbestimmten Anforderungen entsprechen. Es gibt eine spezielle Form von Aktoren Manipulatoren, die Veränderungen der Umwelt zulassen (Handhabungsaufgaben wie z.B. Objekte greifen und absetzen, bohren, schweißen). Einige Aktoren besitzen eine interne Regelung, die die gegebenen Soll-Werte bestmöglichst umzusetzen versucht. Dennoch kann man davon ausgehen, dass jeder Aktor fehlerbehaftet ist und dass einige Aktionen unter bestimmten Bedingungen nicht korrekt ausgeführt werden können.

Die Aktoren von einem autonomen mobilen Roboter dienen zur Veränderung seiner Position in der Umgebung. Dies können ein Fahrwerk mit Rädern, Ketten, Beine zum Laufen oder Springen oder andere Fortbewegungsmechanismen zum Schwimmen, Fliegen, Rollen sein. Es gibt sehr viele Fortbewegungsarten, welche alle ihre Vor- und Nachteile haben. Beine ermöglichen z.B. eine sehr fexible Fortbewegung und sind insbesondere in unwegsamem Gelände nützlich.

Aber die Ansteuerung ist sehr komplex. Außerdem lassen sich mit Rädern auf glattem Untergrund im Allgemeinen höhere Geschwindigkeiten erreichen. Viele Arbeiten eignen sich für spezielle Fortbewegungssystemen und deren Kontrolle. In dieser Arbeit soll jedoch darauf nicht weiter eingegangen werden, sondern es werden beispielhaft nur rollende Roboter, die vorwärts und rückwärts fahren und sich dabei drehen können, betrachtet. Dies schließt jedoch nicht aus, dass sich die hier vorgestellten Konzepte auf Roboter mit anderen Fortbewegungssystemen und sogar mit völlig anderen Aktoren übertragen lassen.

3.1.6.2 Nicht-holonomische und holonomische Bewegung

Die Bewegungsmöglichkeiten eines Roboters können durch die Grenzen, die dieser Bewegung gesetzt sind, charakterisiert werden. Nicht-holonomische Systeme unterliegen Beschränkungen, die mit Geschwindigkeiten zu tun haben, während holonomische Einschränkungen von Geschwindigkeiten unabhängig sind. Ein Beispiel für die nicht-holonomische Beschränkung ist die Bewegung eines Rades um seine Achse. Die Geschwindigkeit des Kontaktpunktes zwischen Rad und Boden ist in Achsenrichtung auf Null beschränkt, die Radbewegung unterliegt daher einer nicht-holonomischen Bewegungseinschränkung.

3.1.7 Datenfusion der Multisensoren  

Wenn die Sorte und die Menge der Sensoren mehr verwendet werden, gibt es für jeden Sensor einige Verwendungsbedingungen und Wahrnehmungsbereiche. Zudem kann jeder Sensor einige Informationen über die Umgebung oder die Objekte anbieten. Um diese von jedem Sensor angebotene Informationen effktiv zu verwenden, sollen diese Informationen mit einer Form zusammen erledigt werden. Das Prozess bezeichnet man als Informationsfusion der Multisensoren. Weil Sensoren verschiedene Charakteristiken aufweisen und unterschiedliche Vor-und Nachteile haben,ist Datenfusion eine außer ordentlich schwierige Aufgabe.

Die Technik der Informationsfusion der Multisensoren ist eine der Schlüsseltechnologien für autonome mobile Roboter. In den 80er Jahren des 20. Jh begannen die Menschen diese Technik zu erforschen. Die Informationsfusion bedeutet, dass alle Informationen integriert verarbeitet werden, die von vielen Sensoren angeboten werden. Diese Technik der Informationsfusion der Multisensoren umfasst die Komplementarität, die Redundanz, die Rechtzeitigkeit und die niedrige Kosten der Informationen. Deshalb können autonome mobile Roboter mit der Technik der Informationsfusion der Multisensoren die Eigenschaften der Umgebung genauer und umfassender zeigen. Dann können autonome mobile Roboter die richtige Beurteilung machen. Diese Technik der Informationsfusion der Multisensoren kann die Schnelligkeit, die Genauigkeit und die Stabilität anbieten.

Nach der Informationsfusion der Multisensoren werden die Informationen zum  Kontrollzentrum übertragen. Dann macht das Kontrollzentrum die Beurteilung. Dann wird die Beurteilung zum Aktor übertragen. Zum Schluss werden autonome mobile Roboter entsprechende Aktion machen.

 

4          Navigation

Die Navigationstechnik ist die Kerntechnologien für autonome mobile Roboter. Für einen mobilen Roboter ist Navigieren eine der wichtigsten Fähigkeitenüberhaupt.

An erster Stelle steht natürlich die Notwendigkeit, überhaupt betriebsfähig zu bleiben, also geführliche Situationen wie Zusammenstöße zu vermeiden und akzeptable Betriebsbedingungen aufrecht zu erhalten (Temperatur, Strahlung, Witterungsschutz usw.). Soll der Roboter jedoch Aufgaben ausführen, die sich auf bestimmte Orte in der Roboterumgebung beziehen, dann muß er navigieren können. Die Navigation mobiler Roboter ist eine Domäne, die seit vielen Jahren von vielen Forschungsgruppen untersucht wird. Es gibt bereits mehrere Robotersysteme, die hervorragend in ihrer Umgebung navigieren können.

Navigation kann als eine Kombination der folgenden drei Kompetenzen definiert werden: Selbstlokalisierung, Routenplanung, Kartenerstellung und Karteninterpretation. Der BegriffKarte steht in diesem Zusammenhang für jede direkte Zuordnung oder Abbildung von Einheiten in der wirklichen Welt auf Einheiten innerhalb einer internen Repräsentation. Diese Repräsentation gleicht nicht unbedingt einer gewöhnlichen Landkarte oder einem Stadtplan. Bei Robotern zum Beispiel besteht eine ,,Karte häufig aus den Erregungsmustern künstlicher neuronaler Netze. Lokalisierung steht für die Kompetenz des Agenten, seine eigene Position innerhalb eines Bezugssystems feststellen zu können.

Routenplanung ist im Prinzip eine Erweiterung der Lokalisierung, da der Agent seine gegenwärtige Position unddie angestrebte Ziel position innerhalb ein und desselben Bezugsystems bestimmen muss. Die Kompetenz des Kartenerstellens bezieht sich nicht nur auf Karten, wie wir sie normalerweise benutzen, d.h. metrische Karten der Umgebung, sondern auf jegliche Art der Beschreibung von Positionen innerhalb des Bezugsystems. Dazu gehört auch,Informationen über erkundetes Terrain festzuhalten. Schließlich benötigt man für den Umgang mit Karten auch die Fähigkeit, sie zu interpretieren.

Die Navigation eines autonomen mobilen Roboters läßt sich grob durch die drei Fragen „Wo bin ich?“, „Wohin gehe ich?“ und „Wie gelange ich dorthin?“ zusammenfassen. Es gibt viele Navigationsweise für Autonome mobile Roboter. z,B Visionbasierte Positionierung, Lichtreflexion Positionierung, das Global Positioning System (GPS), Ultraschallpositionierung, SLAM Technologien usw.

Jede Navigation hat eigene Eigenschaften und eignet sich für unterschiedliche Anwendungsbereiche. Die Navigation ist eine der wichtigsten Aufgaben eines mobilen Roboters.

4.1 Selbstlokalisierung

Dieser Teil diskutiert Methoden zur Selbstlokalisierung eines mobilen Roboters. Die Aufgabe hierbei ist, die Position des Roboters aufgrund einer apriori Umgebungskarte und Sensordaten des Roboters zu bestimmen.

Zur Bestimmung der Position in einem globalen Bezugssystem gibt es integriete Sensoren. Generell unterscheidet man zwischen zwei verschiedenen Selbstlokalisierungsproblemen: globale Selbstlokalisierung und lokale Selbstlokalisierung.

4.1.1 Globale Selbstlokalisierung

Bei der globalen Selbstlokalisierung wird der Roboter an einen beliebigen Ort gestellt und dem System wird die Gelegenheit gegeben, die Umwelt mit den Sensoren des Roboters zu beobachten.

Das System muss dann durch Auswerten der Sensorinformationen entscheiden, an welchen möglichen Positionen der Roboter sich benden kann. Der Prozeß, um diese Entscheidung zu treffen, ist im allgemeinen aufwendig und benötigt je nach Größe des Suchraums entsprechend viel Rechenzeit.

Abbildung 16: Links Navstar Satellit. Quelle: U.S. Air Force (public domain). Rechts: Gps-Empfänger Garmin-Usb mit SiRF-III Chipsatz wie er auf Kurt verwendet wird.

GPS

Ein weit verbreitetes Sensorsystem für mobile Roboter ist das globale Positionsbestimmungssystem (engl. global positioning system, Gps). Der Begriff Gps wird aber im Allgemeinen für das Navstar-Gps (engl. Navigational Satellite Timing and Ranging – Global Positioning System) des US Verteidigungsministeriums verwendet, das seit 1995 zur weltweiten Positionsbestimmung und Zeitmessung verwendet werden kann. Abbildung 16 zeigt einen Navstar-Satelliten und einen Gps-Empfänger.

Satellitensignale von mindestens vier Satelliten werden mit kleinen und mobilen Empfangsgeräten detektiert. Um die Laufzeiten der Signale gering zu halten, befinden sich die Satelliten im erdnahen Orbit, decken aber nur einen kleinen Teil der Erdoberfläche ab. Mindestens 24, besser 32 Satelliten werden benötigt, um eine vollständige Abdeckung zu erreichen.

Bei der Standortbestimmung misst man die Laufzeitzu mindestens vier Satelliten. Jede dieser Entfernungen definiert eine Kugeloberfläche um den zugehörigen Satelliten, auf der sich der Empfänger befindet.

Zwei Kugeln schneiden sich in einem Kreis,drei Kugeln ergeben maximal zwei Punkte als Schnittmenge, wenn man vom geometrischen Fall mit gleichem Radius und Mittelpunkt absieht, was in der Praxis nie erreicht werden kann. Verwendet man Hintergrundwissen und verwirft den weniger wahrscheinlichen Schnittpunkt, lässt sich die Position bestimmen.

4.1.2 Lokale Selbstlokalisierung

Bei der lokalen Selbstlokalisierung dagegen ist die ungefähre Position des Roboters

bereits bekannt und es soll „nur“ eine Positionskorrektur berechnet werden. Dies ist der Fall, wenn der Roboter an einer ungefähr bekannten Position aufgestellt wird und dann fortlaufend seine Position durch Abgleich der Sensordaten mit Umgebungskarte bestimmt.

Zunächst wird eine bekannte Selbstlokalisierungsmethode, die Koppelnavigation, vorgestellt, welche Sensordaten der Odometrie auswertet. Dieses Verfahren wird in den meisten Robotersystemen eingesetzt.

Bei der Koppelnavigation wird die Positionsänderung eines Fahrzeugs durch Messen des zurückgelegten Weges eines oder mehrere Räder bestimmt. Zu diesem Zweck sind an den Rädern Sensoren angebracht, welche die Drehbewegung des jeweiligen Rades messen. Zusätzlich kann ein Kreiselkompaß verwendet werden, um die Orientierung des Roboters zuverlässiger zu bestimmen.

Lokalisierungsmethoden lassen sich allgemein in die drei Kategorien verhaltensbasierte Ansätze, Landmarkenlokalisierung und dichte Sensordaten vergleichende Verfahren einteilen. Verhaltensbasierte Ansäze beruhen auf der Interaktion von Roboteraktionen mit der Umwelt, um zu navigieren.

Zum Beispiel folgte Connell's Roboter Herbert einer Faustregel, um durch eine Büroumgebung zu fahren und seinen Weg zurückzunden, indem die Prozedur der Hinfahrt rückwärts angewandt wurde [Connell, 1990]. Weiter verfeinerte Systeme lernen interne Strukturen, die „abgespielt“ werden können, um Aktionen zu wiederholen oder rückgängig zu machen [Arkin, 1990].Während verhaltensbasierte Systeme für bestimmte Aufgaben sehr nützlich sind, ist ihre Fähigkeit einen Roboter geometrisch zu lokalisieren begrenzt, da die Navigationsfähigkeit implizit in der Sensor- und Aktionshistorie liegt. Landmarkenlokalisierung beruht auf der Erkennung von Landmarken, um den Roboter geometrisch zu lokalisieren.

Die Landmarken können können a priori gegeben sein (z.B. die Satelliten im GPS-Navigationssystem oder in der Umgebung angebrachte Marken, die mit speziellen Mustern oder auffälligen Farben versehen sind), oder vom Robotersystem in einer Explorationsphase gelernt werden (z.B. Sonar-Landmarken [Leonard et al., 1990].) Während Landmarkenlokalisierung beeindruckende Ergebnisse in geometrischer Lokalisierung erreichen kann, muß entweder die Einsatzumgebung vorher eingerichtet werden oder natürliche Landmarken effizient und robust erkannt werden können.

Im Gegensatz hierzu, versuchen dichte Sensordaten vergleichende Verfahren die gesamte verfügbare Sensorinformation zu verwenden, um die Roboterposition zu bestimmen. Dies wird dadurch bewerkstelligt, dass dichte Sensorscans mit einer Oberflächenkarte der Umgebung verglichen werden ohne dabei Landmarken aus den Sensordaten zu extrahieren. Daher können dichte Sensordaten vergleichende Verfahren sich beliebige in den Sensordaten vorhandene Merkmale zum Vorteil machen, ohne dabei explizit diese Merkmale zu denieren.

4.2 Weltmodelle für Navigation

Weltmodelle für Navigation mobiler Roboter sind zumeist zwei-dimensionale, geometrische oder topologische Karten. Die dritte Dimension in die Karten mit aufzunehmen, macht das Modell für die Navigation meistens unnötig komplex.

Außer dieser Repräsentation der Umwelt gehören aber weitere Komponenten zu einem Weltmodell. So muss ein Verfahren existieren, mit dem der aktuelle Zustand des Weltmodells mittels der Sensordaten aktualisiert werden kann, und es müssen entsprechende Algorithmen zur Planung der globalen Navigation anwendbar sein.

4.2.1 Geometrische Weltmodelle

Unter geometrischen Weltmodellen werden hier positionsbezogene Modelle verstanden. Die Eigenschaften der Umwelt werden jeweils ‚an‘ einer bestimmten Position bzw. mit einer Positionsangabe gespeichert, so dass sie sich in einer zwei-dimensionalen geometrischen Karte mit euklidischen Koordinaten platzieren lassen. Bei gerasterten Karten wird die Umwelt in eine Menge von Bereichen eingeteilt - im einfachsten Fall in gleich große Quadranten (Raster) - und die Eigenschaften der Umwelt für jeden der Bereiche gespeichert. Ein typisches Beispiel hierfür sind Occupancy Grid-Maps. Vektorielle Karten dagegen speichern eine Menge von Objekten jeweils mit Positionsangabe, wobei die Positionsangabe hier nicht an ein Raster gebunden sein muss und die Objekte selbst neben anderen Eigenschaften typischerweise auch eine geometrische Beschreibung beinhalten.

4.2.1.1 Vektorielle Karten mit geometrischen Primitiven

Als geometrische Grundformen zur Beschreibung der Umwelt werden hier Liniensegmente, Kreise, Polygone oder andere geometrische Primitive benutzt.

Der Rand eines Polygons ist eine Liste von Liniensegmenten. Oft werden insbesondere konvexe Polygone zur Modellierung von Hindernissen verwendet. Polygone eignen sich besonders in manuell erstellten Weltmodellen kombiniert mit Off-Line-Planung. Der Nachteil dieser Methode besteht unter Anderem darin, dass die Sensoren eines mobilen Roboters immer nur eine Seite eines Polygons erfassen können und deshalb eine dynamische Erstellung und Pflege eines solchen Modells schwer fällt.

Um effektive Pfadplanung durchzuführen, werden diese geometrischen Karten typischerweise in planare Graphen transformiert, welche die Topologie der Umgebung wiedergeben.

4.2.1.2 Occupancy Grid-Maps

Occupancy Grid-Maps eignen sich nicht nur als Weltmodell, sondern sind auch als Methode zur Sensor-Fusion bekannt.

Für die lokale Navigation ist vor allem die freie, befahrbare Fläche in der Umgebung des Roboters interessant. Sind mehrere verschiedene Sensoren zum Messen der freien Fläche vorhanden, so stellt sich zwangsläufig die Frage nach einer geeigneten Sensor-Fusion. Die Messungen der verschiedenen Sensoren sind von unterschiedlichen Zeitpunkten und haben unterschiedliche Charakteristika, was die Genauigkeit, die Reichweite und sonstige Eigenschaften betrifft. Selbst wenn nur ein Abstandssensor benutzt wird, ist zumindest die Zusammenfassung mehrerer zeitlich aufeinander folgender Messungen von Interesse.

Für die Erstellung einer Occupancy Grid-Map wird die lokale Umgebung des Roboters eingeteilt in Regionen, im einfachsten Fall durch ein Raster (engl.: grid) in Quadranten.

4.2.2 Topologische Weltmodelle

Diese Weltmodelle geben hauptsächlich die Topologie[1]1 der Umwelt wieder. Sie besitzen im Allgemeinen einen höheren Abstraktionsgrad als geometrische Karten und werden typischerweise als Graph mit Objekten und Beziehungen zwischen diesen Objekten dargestellt.

Im weitesten Sinne können manche topologische Karten auch als geometrische Karten interpretiert werden. Auch hier ist der Übergang fließend. Der höhere Abstraktionsgrad prägt sich darin aus, dass Bereiche in der Umgebung zu Objekten wie Kreuzungen, Abzweigen, Räumen. zusammen gefasst werden und teilweise semantische Beziehungen zu benachbarten Objekten erfasst sind. Planungsalgorithmen lassen sich dadurch auf topologischen Weltmodellen im Allgemeinen direkter implementieren.

4.2.3 Probabilistische Weltmodelle

Da die Sensorik, auf welche alle Verfahren zur Aktualisierung eines Weltmodells angewiesen sind, fehlerbehaftet ist, ist auch ein bestimmter Zustand immer fehlerbehaftet. Mittels eines Fehlermodells lässt sich dieser Fehler des Zustands zumindest annähernd quantitativ eingrenzen. Unabhängig von der Ungenauigkeit der Sensorik kommen jedoch weitere Fehlerquellen hinzu:

Erstens sind durch die ungenaue Modellierung der Umwelt Fehlinterpretationen der Sensordaten möglich. Dies kommt daher, dass sich in der Umwelt Objekte (z.B. Personen oder andere dynamische Objekte) befinden, welche im Weltmodell nicht oder nur unzureichend modelliert werden können.

Diese Objekte können bei der Auswertung der Sensordaten mit Objekten im Weltmodell verwechselt werden oder die Erkennung von Objekten im Weltmodell verhindern. Zweitens kann die Umwelt z.B. von verschiedenen Positionen aus die gleichen Sensoreindrücke vermitteln. Dadurch wird eine eindeutige Positionsbestimmung und somit auch die Zuordnung der Sensordaten zum globalen Modell nur aus den momentanen Sensordaten unmöglich. Da viele Aktualisierungsverfahren für Weltmodelle einen eindeutigen, zuvor bestimmten Zustand des Modells zur Bestimmung des neuen aktuellen Zustandes benutzen, wird in vielen nicht probabilistischen Verfahren nur der wahrscheinlichste alte Zustand als Grundlage für die Berechnung der neuen Zustände verwendet.

Probabilistische Weltmodelle können auf geometrischen oder topologischen Weltmodellen basieren. In probabilistischen Weltmodellen wird nicht ein bestimmter Zustand gespeichert, sondern eine Wahrscheinlichkeitsverteilung über alle möglichen Zustände oder zumindest über einer Teilmenge der möglichen Zustände. Dadurch steigt der Aktualisierungsaufwand aber auch der Informationsgehalt. Die probabilistisch erfassten Zustandsvariablen im Weltmodell betreffen hier meistens nur wenige Objekte im Weltmodell. Typischerweise wird sogar nur die Position des Roboters mit einer probabilistischen Zustandsvariablen beschrieben.

Um die Wahrscheinlichkeitsverteilung der Zustandsvariablen aktualisieren zu können, benötigt man ein probabilistisches Sensor- und Aktormodell. Das Sensormodell beinhaltet Informationen, wie wahrscheinlich es ist, bei einem bestimmten realen Zustand eine bestimmte Sensormessung zu erhalten.

Das Aktormodell beschreibt andererseits wie wahrscheinlich es ist, einen bestimmten realen Folgezustand zu erreichen unter der Bedingung, dass versucht wurde eine bestimmte Aktion auszuführen.

Sensor- und Aktormodelle können teilweise durch statistische Versuche ermittelt werden. Um die Zahl der Experimente zu reduzieren, ist es wichtig zu bestimmen, von welchen Faktoren der Ausgang der Messungen bzw. der Aktion wesentlich abhängt. Die Wahrscheinlichkeitsverteilung der Entfernungen einer Entfernungsmessung hängt global gesehen beispielsweise mit der Position des Sensors und der momentanen Beschaffenheit der Umgebung zusammen.

Da reale, dynamische Umgebungen jedoch diese Bedingung nicht erfüllen, müssen zusätzliche Techniken angewendet werden, um ein gutes Lokalisierungsverfahren zu erhalten. Abgesehen davon wird die Aktualisierung schon unter diesen Annahmen sehr aufwendig, wenn die betrachteten Zustandsräume groß sind. Aus diesem Grund werden auch entsprechende Techniken zur Reduktion des Aktualisierungsaufwandes benötigt.

5          Analyse von Steuerungsarchitekturen

Unter einer Steuerungsarchitektur versteht man die Struktur der Steuerung eines Systems. Sie soll die Implementierung und Wartung von komplexen Anwendungen erleichtern und typische Fehler von vornherein vermeiden helfen. Dabei sollten Steuerungsarchitekturen für mobile Roboter auf die speziellen Anforderungen dieser Steuerungsaufgabe zugeschnitten sein. Hierzu gehören die Anforderungen, die durch ungenaue Sensorik und Aktorik entstehen, sowie Zeitanforderungen durch die Interaktion mit einer realen Umwelt.

Die Gesamtsteuerung wird in verschiedene Module evtl. verschiedener Klassen eingeteilt. Sie legt deren Interaktion, semantische Bedeutung und Beziehung zueinander fest. Dazu gehören z.B. die Kommunikation und Hierarchie zwischen den Modulen. Weiterhin wird evtl. festgelegt, wie der interne Zustand des Systems strukturiert ist, gespeichert wird und wie die Module darauf zugreifen können.

Die Steuerungsarchitektur ist also eine Art Rahmenwerk und stellt selbst keine lauffähige Anwendung dar, sondern wird erst durch die Implementierung mit Funktionalität gefüllt.

In diesem Teil wird zunächst der Einsatz von hybriden Steuerungsarchitekturen motiviert. Hybride Steuerungsarchitekturen zielen auf eine Symbiose von verhaltensbasierten (oder reaktiven) Ansätzen mit klassischen, funktionsbasierten Ansätzen ab. Es ist der Versuch, die Vorteile beider Ansätze in Einklang zu bringen. Im Rahmen einer Klassifikation werden typische hybride Steuerungsarchitekturen vorgestellt und analysiert. Die daraus gewonnenen Erkenntnisse fließen im folgenden Kapitel in die im Laufe dieser Arbeit entwickelte Steuerungsarchitektur ein.

5.1 Prozessdatenverarbeitung

Etwas abstrakter betrachtet handelt es sich bei einem Roboter um ein System, das Prozessdaten verarbeitet. Die Daten werden von Sensoren geliefert und Ergebnisse über Aktoren in physische Reaktionen umgesetzt.

x → Black-Box → y

Der aktuelle Ausgang y der Black-Box wird bestimmt von der Sequenz aller Wahrnehmungen x bis zum aktuellen Zeitpunkt, das bedeutet, dass die Box im Allgemeinen auch ein Erinnerungsvermögen hat. Die gewählte Steuerungsarchitektur beantwortet dann die Frage nach der Struktur der Black-Box.

Ein Großteil der Forschungsarbeiten der künstlichen Intelligenz beschäftigt sich mit der Lösung von Problemstellungen, bei denen zum Zeitpunkt, wenn der Lösungsprozess gestartet wird, alle nötigen Informationen vorliegen. Lsungsmethoden beruhen hier im Allgemeinen auf intelligenten Suchstrategien im Zustandsraum des Problems. Lösungen sind dabei vollständige Pfade (Folgen von Zuständen bzw. Folgen von Aktionen) vom Ausgangszustand zum Zielzustand, welche die Zielbedingungen des Problems erf¨ullen und evtl. zusätzlich eine Kostenfunktion minimieren. Hierbei werden im Normalfall einige Voraussetzungen angenommen, die diese Vorgehensweise rechtfertigen:

• Bestimmte Aktionen bewirken bestimmte, bekannte Zustandsänderungen und nur diese.

• Während des Lösungsprozesses ändert sich der Zustand des Weltmodells nicht.

5.1.1 Zeitbedingungen

Im Gegensatz zur Verarbeitung von Daten aus einer Datenbank können die Daten vom System nicht bei Bedarf abgeholt werden, sondern müssen ausgelesen werden, wenn sie vom Sensor gemessen werden.

Insbesondere fallen natürlich kontinuierlich weitere Daten an, und auch die Verarbeitung muss kontinuierlich erfolgen. Dabei werden im Allgemeinen auch Daten und Ergebnisse aus den vorhergehenden Zeitschritten benöigt. Sensordaten fallen in teilweise sehr unterschiedlichen Zeitintervallen an. Natürlich können die Daten gespeichert bzw. gepuffert werden. Handelt es sich jedoch um wichtige Daten, die z.B. für die Kollisionsvermeidung relevant sind, müssen sie innerhalb einer engen Zeitspanne bearbeitet und ausgewertet werden. Andererseits fallen auch andere Daten an, die zwar ebenfalls wichtig sind, auf die jedoch nicht besonders schnell reagiert werden muss.

Auch die Verarbeitungszeit der Daten ist je nach Ziel der Verarbeitung unterschiedlich. So ist die Prüfung, ob ein Messwert eine Schwelle überschreitet, in wenigen Prozessortakten erledigt, jedoch kann die Erkennung eines Objektes sehr aufwendig werden und die Akkumulation vieler Daten erfordern. Weiterhin können auch verschiedene Verarbeitungsergebnisse bestimmter Datenquellen verschiedene Dringlichkeiten besitzen. Auch auf der Ausgangsseite sind zeitliche Bedingungen zu beachten. So müssen manche Steuerkommandos nicht unmittelbar, sondern erst zu einem bestimmten Zeitpunkt oder auch nach einer bestimmten Verzögerungszeit, ausgeführt werden.

Die oben genannten gemischten Echtzeitanforderungen an die Datenverarbeitung sind ein wesentlicher Grund für den Entwurf von neuen Architekturen zur Verarbeitung der Daten eines mobilen Roboters.

5.2 Verhaltensbasierte Steuerungsarchitekturen

Verhaltensbasierte Ansätze erfuhren einen großen Aufschwung als Brooks 1986 seinen Artikel A robust layered control system for a mobile robot“ [Bro86] veröffentlichte und gleichzeitig demonstrierte, dass dieser Ansatz überzeugende Ergebnisse auf dem Gebiet der robusten Steuerung von sechsbeinigen Robotern zeigte [Bro89]. Außerdem lieferte Brooks theoretische Hintergründe des Erfolgs [Bro89, Bro91b, Bro91a]. Parallel hierzu fanden Wissenschaftler aus dem Gebiet der Kybernetik und Biologie anhand von Studien an Insekten (u.a. Stabheuschrecken) heraus, dass das Geheimnis hinter der so komplex anmutenden Fortbewegung auf sechs Beinen durch unebenes Gelände wahrscheinlich das Zusammenwirken von mehreren recht einfachen Regelmechanismen in Wechselwirkung mit der Umwelt ist [CBB+95, CDK+99]. Dies war deshalb erstaunlich, weil vorhergehende Ansätze zur Steuerung sechsbeiniger Roboter, die versuchten die Bewegung aller sechs Beine zentral zu steuern, auf erhebliche Probleme gestoßen waren. Problematisch waren vor allem die große Anzahl der Freiheitsgrade einer solchen Laufmaschine, die Ungenauigkeit der Sensorik und die harten Echtzeitbedingungen.

Offensichtlich war man mit dem verhaltensbasierten Ansatz auf eine Methode gestoßen, die gerade in der Robotik Vorteile gegenüber dem konventionellen funktionalen Ansatz birgt und die zusätzlich ihr Vorbild in der Natur fand. Weitere Wissenschaftler gelangten mehr oder weniger unabhängig zu ähnlichen Erkenntnissen ([PV92, PS94, Ste94, Smi94, MB93, Bee90, Sac87]). Es folgten verschiedene Studien zu verhaltensbasierten, reaktiven mobilen Robotern ([Bra84, VKP92, Kub97, SP95, SB95, Ste97b, Ste97a, Mat97, FS95, GIM94]).

Es fiel jedoch auf, dass verhaltensbasierte Roboter zwar sehr reaktionsschnell und robust agierten, es mangelte ihnen jedoch an planerischen Fähigkeiten [BKSW95b, BK95b, BK95a]. Dadurch wurden die Prämissen von Brooks, kein Weltmodell zu benutzen und keinen internen Zustand zu speichern, in Frage gestellt. Wie auch Erann Gat in [Gat93] herausstellt, entstehen Probleme mit Weltmodellen und internen Zuständen immer dann, wenn implizit Folgerungen und Vorhersagen aus den gespeicherten Zuständen generiert werden, welche nicht zutreffen.

Deshalb sind viele Probleme zu beseitigen, indem darauf geachtet wird, dass das Weltmodell und der intern gespeicherte Zustand nur Informationen enthalten, die zutreffende Vorhersagen zulassen. Dies ist zumeist für abstraktere Informationen der Fall. Diese Informationen können zwar genutzt werden, um die Aktionen des Roboters grob zu leiten, sind jedoch nicht geeignet, um ihn zu steuern. Verhaltensbasierte Steuerungsarchitekturen müssen nun festlegen, wie dieses Leiten der Aktionen realisiert wird, ohne die reaktiven Fähigkeiten der Verhalten zu unterbinden. Um diesen Problemen zu begegnen, wurden eine Vielzahl von hybriden Steuerungsarchitekturen entwickelt, von denen einige wichtige im nächsten Abschnitt vorgestellt werden. Einige Begriffe in der verhaltensbasierten Robotik werden nicht einheitlich verwendet, insbesondere wird der Begriff ‚Verhalten‘ unterschiedlich aufgefasst. Um Missverständnissen vorzubeugen, wird hier zunächst die Bedeutung einiger Begriffe für diese Arbeit umrissen.

Ein einfaches Modul, welches gelesene Eingangsdaten bzw. Sensordaten mit Algorithmen und Funktionen auf Ausgangsdaten bzw. Aktionen abbildet, nennen wir ’Verhalten’. Dabei ist von einem ‚Reflex‘ die Rede, wenn das Modul mit bestimmten Ausgabemustern direkt und sehr schnell auf wenige, bestimmte Ereignisse oder Muster von Eingangsdaten reagiert, völlig unabhängig vom internen Zustand. Ein Reflex ist also ein besonders einfaches und schnelles Verhalten und reagiert nur in bestimmten Situationen (Stimulus - Response).

Dagegen bezeichnen wir Verhalten, die kontinuierlich alle Eingangsdaten auswerten und auf einen kontinuierlichen Strom von Ausgangsdaten abbilden, als ‚Kontrollverhalten‘. Der Begriff ‚Verhalten‘ stimmt somit in dieser Arbeit mit dem Begriff ‚behavior‘ überein, wie er in den meisten Arbeiten verwendet wird. Andererseits benutzt beispielsweise L. Steels den Begriff ‚behavior‘ in [Ste94] mit einer anderen Bedeutung. Dort ist ein Verhalten (behavior) eine Abfolge von beobachteten und interpretierten Aktionen eines Roboters in seiner Umgebung. Ein Verhalten ist dort demnach kein spezielles Modul oder ein Algorithmus, sondern es erwächst aus dem Zusammenspiel von einem oder mehreren reaktiven Modulen untereinander sowie mit der Umwelt.

Obwohl dieser Begriff von Verhalten näher an der biologischen Definition liegt und vielleicht sogar treffender ist, werden wir hier den Begriff ‚Verhalten‘ so verwenden wie oben beschrieben, denn er wird auch in der Mehrzahl der Arbeiten zu verhaltensbasierten Steuerungsarchitekturen so benutzt.

In diesem Teil wird Steuerungsarchitekturen für autonome mobile Roboter ausführlich analysiert. Dabei gibt es auch einen Überblick über Prozessdatenverarbeitung und Verhaltensbasierte Steuerungsarchitekturen. Durch diese Analyse kann man die nützliche Informationen darüber erhalten, besonders über die Informationen für  Zeitbedingungen und Verhaltensbasierte Steuerungsarchitekturen. Verhaltensbasierte Steuerungsarchitekturen sind die beliebte Thema für autonome mobile Roboter.

6          Zusammenfassung

Roboter sind künstliche, von Menschen entworfene und gebaute technische Objekte. In dieser Arbeit kann man autonome mobile Roboter gut verstehen. Auch die Beschaffenheit der Einsatzumgebung wurde in dieser Arbeit vorgestellt.

Es wurden typische Sensoren und Aktoren für autonome mobile Roboter beschrieben. Eine kurze Übersicht über andere autonome mobile Roboter wurde in dieser Arbeit beschrieben. Danach kann man auch die Geschichte über autonome mobile Roboter besser kennen.

Zudem wurden auch bekannte lokale und globale Navigationsverfahren vorgestellt. Unter einer Steuerungsarchitektur versteht man die Struktur der Steuerung eines Systems. Dabei sollten Steuerungsarchitekturen für autonome mobile Roboter auf die speziellen Anforderungen dieser Steuerungsaufgabe zugeschnitten sein.

Autonome mobile Roboter bewegen sich in einer offenen Umgebung, deshalb sind die Definition und Pflege eines geschlossenen Weltmodells schwieriger als bei stationären Robotern. Für einen mobilen Roboter stellt die sichere Navigation ein grundlegendes Aufgabenfeld dar. Gleichzeitig ist die Navigation in dynamischen Umgebungen ein typischer Anwendungsfall für die Zusammenfassung von reaktiven und deliberativen Verfahren.

Die Navigation lässt sich in lokale und globale Navigation unterteilen. In der lokalen Umgebung muss der Roboter sensororientiert arbeiten und auf dynamische Objekte reagieren. Bei einigen Robotern müssen zusätzlich nicht-holonomische Eigenschaften berücksichtigt werden.

Es gibt noch die Informationen über Lokalisierung über autonome mobile Roboter, die ein sehr wichtiges Thema für autonome mobile Roboter ist. Es ist notwendig, dass man Lokalisierung über autonome mobile Roboter gut versteht.

Durch diese Arbeit kann man wissen, dass wie die Verwendung von Sensordaten aus der Umgebung für mobile Roboter eine zentral wichtige Rolle spielt. Ein Grundverständnis der technischen Sensoren ist daher auch dann erforderlich. In dieser Arbeit kann man die Antwort bekommen.

Kurz gesagt, man kann durch die Arbeit neue Erkenntnisse über autonome mobile Roboter erfassen. In der Zukunft werden autonome mobile Roboter wichtiger als jetzt sein.

Literatur

Bilder aus dem Buch » Mobile Robots - State of the Art in Land, Sea, Air, and Collaborative Missions «, XiaoQi Chen, Y.Q. Chen and J.G. Chase.

Bilder aus dem Buch »Mobile Robotik«, Ulrich Nehmzow

https://de.wikipedia.org/wiki/Autonomer_mobiler_Roboter

https://publikationen.uni-tuebingen.de/xmlui/handle/10900/48655



[1] Topologie: Lehre von der Lage u. Anordnung geometrischer Gebilde im Raum.

智尚简介  |  诚聘英才  |  联系我们  |  友情链接
版权所有:@2007-2009 智尚 电话:0760-86388801 客服QQ:875870576
地址:广东中山市学院路1号 邮编:528402 皖ICP备10002124号
  • 中国大学法语专业毕业论文写作研究
  • 韩语专业毕业论文写作探索
  • 高职日语专业毕业论文测评体系思考
  • 日语专业毕业论文选题问题
  • 日语专业本科毕业论文现状调查与分析
  • 境外将美元汇入中国方法渠道方式
  • 财产、厂房和设备按照IAS16审计
  • IFRS:國際財務報告準則
  • IFRS:國際財務報告準則
  • 德国酒店中德两国文化的交融和冲突
  • 工业翻译中译英考试题目
  • Introduction to en
  • 从汉法主要颜色词汇的文化内涵看两国文
  • Un problème chez &
  • INTERNATIONAL AND
  • IHRM Individual re
  • НАЦИОНАЛЬНО-КУЛЬТУ
  • ТЕОРЕТИЧЕСКИЕ ОСНО
  • SPE会议论文翻译
  • Project Proposal 地
  • 中国意大利家用电器领域合作的可能性和
  • Career Goal与Career
  • Caractéristiques e
  • L'influence de l'S
  • 英语口语教学改革途径测试与分析
  • 语用学理论与高校英语阅读教学
  • 日本语研究计划书写作申请
  • To Whom it May Con
  • 译文中英对照葡萄酒产品介绍
  • 韩国传统用餐礼节
  • 日本語の暧昧語婉曲暧昧性省略表現以心
  • 研究计划书写作要求
  • Outline Impact of
  • 计算机工程与网络技术国际学术会议EI
  • 微软的人脸3D建模技术 Kinect
  • Qualitative resear
  • 新闻的感想
  • 与老师对话的测验
  • 韩语论文修改意见教授老师
  • 华南师范大学外国语言文化学院英语专业
  • APA论文写作格式
  • the surrounding en
  • Современное состоя
  • CHIN30005 Advanced
  • The APA Harvard Sy
  • Annotated Bibiolgr
  • Acker Merrall & Co
  • 资生堂进入中国市场的经营策略
  • Introduction to Pu
  • 软件测试Introduction t
  • Pro Ajax and java
  • 用户体验The user exper
  • AJAX Design Patter
  • The Rich Client Pl
  • Keyframer Chunks
  • 3D-Studio File For
  • Mathematics for Co
  • The Linux MTD, JFF
  • 中日体态语的表现形式及其差异
  • CB 202 System Anal
  • 论日本恐怖电影与好莱坞恐怖片的异同
  • 俄语论文修改
  • 古典诗歌翻译英语论文资料
  • <한중
  • 公司治理(Corporate Gov
  • 英语习语翻译中的移植与转换
  • 日语(上) 期末复习题
  • ACTIVIDAD CORRESPO
  • 리더&#
  • 购物小票翻译
  • 论文摘要翻译英文
  • Bedeutung der Prod
  • ELABORACIÓN
  • 英语考卷代写代做
  • 日本語の感情形容詞の使用特徴——ドラ
  • 未来創造学部卒業研究要領
  • 光之明(国际)低碳产品交易中心介绍
  • 中国の茶文化と日本茶道との比較—精神
  • 목차
  • Final Project Grad
  • 東京学芸大学>センターなど教員許 夏
  • 東京学芸大学 大学院教育学研究科(修
  • 白澤論
  • ポスト社会主義モンゴルにおけるカザフ
  • 言語と色彩現象—史的テクストをもとに
  • 渡来人伝説の研究
  • 中日企业文化差异的比较
  • Modellierung des B
  • 日本大学奖学金申请
  • 大学日语教师尉老师
  • 석사&#
  • Chemical Shift of
  • 中韩生日习俗文化比较
  • Measure of Attachm
  • 酒店韩国客人满意度影响因素研究
  • 要旨部分の訂正版をお送りします
  • Writing and textua
  • 日本企業文化が中国企業にもたらす啓示
  • 日本情报信息专业考试题
  • 雅丽姿毛绒时装有限公司网站文案(中文
  • 語用論の関連性理論「carston」
  • 組織行動と情報セキュリティ.レポート
  • Bedarf
  • 中日企业文化差异的比较
  • 从语形的角度对比中日“手”语义派生的
  • 中国明朝汉籍东传日本及其对日本文化的
  • 《中日茶道文化比较》
  • 从中日两国电视剧看中日文化之差异
  • FOM Hochschule für
  • Die Rolle der Bank
  • A Penny for Your T
  • 也谈ガ行鼻浊音的语音教学问题
  • On the Difference
  • 衣装は苗族の伝統文化の主な表現形式
  • 日语语言文学硕士论文:日本の义务教育
  • 日本的茶文化
  • Samsung Electronic
  • Synthesis and char
  • The traveling mark
  • The Japanese Democ
  • 四季の歌
  • CapitoloI La situa
  • The Effects of Aff
  • WEB服务安全保障分析
  • 音译汉语和英语的相互渗透引用
  • 中日两国服装贸易日语论文写作要求
  • 日语论文修改意见
  • 英语作文题目
  • 申请留学社会经验心得体会
  • BE951 Coursework O
  • Overview township
  • 日本の長寿社会考察
  • 日语老师教师电话联系方式
  • 「依頼」に対する中上級者の「断り」に
  • 日本語序論
  • component formatti
  • 日文文献资料的查阅方法
  • 日文文献资料的查阅方法
  • 日语文献检索日文文献搜索网站
  • 日本留学硕士及研究生的区别硕士申请条
  • Adult attachment s
  • レベルが向上する中国の日本学研究修士
  • 日本留学硕士(修士)与研究生的区别
  • Nontraditional Man
  • Engine Lathes
  • Automatic Screw M
  • Chain Drives
  • V-belt
  • Bestimmung der rut
  • 中山LED生产厂家企业黄页大全
  • 活用神话的文化背景来看韩国语教育方案
  • MLA論文格式
  • 旅游中介
  • MLA论文格式代写MLA论文
  • 小論文參考資料寫作格式範例(採APA
  • clothing model; fi
  • 共同利用者支援システムへのユーザー登
  • 太陽風を利用した次世代宇宙推進システ
  • RAO-SS:疎行列ソルバにおける実
  • 井伏鱒二の作品における小動物について
  • 從“老祖宗的典籍”到“現代科學的証
  • “A great Pecking D
  • 净月法师简历
  • 科技论文中日对照
  • 翻译的科技论文节选
  •  IPY-4へ向ける準備の進み具合
  • 論文誌のJ-STAGE投稿ʍ
  • Journal of Compute
  • 学会誌 (Journal of Co
  • 学会誌JCCJ特集号への投稿締切日の
  • 「化学レポート:現状と将来」
  • 韩语翻译个人简历
  • 九三会所
  • 事態情報附加連体節の中国語表現につい
  • International Bacc
  • HL introduction do
  • コーパスを利用した日本語の複合動詞の
  • 日语分词技术在日语教材开发中的应用构
  • 北極圏環境研究センター活動報告
  • 语用学在翻译中的运用
  • 日汉交替传译小议——从两篇口译试题谈
  • 総合科学専攻における卒業論文(ミニ卒
  • Heroes in August W
  • 玛雅文明-西班牙语论文
  • 西班牙语论文-西班牙旅游美食建筑
  • 八戸工業大学工学部環境建設工学科卒業
  • 親の連れ子として離島の旧家にやって来
  • 「米ソ協定」下の引揚げにおいて
  • タイトル:少子化対策の国際比較
  • メインタイトル:ここに入力。欧数字は
  • 東洋大学工学部環境建設学科卒業論文要
  • IPCar:自動車プローブ情報システ
  • Abrupt Climate Cha
  • Recognition of Eco
  • Complexities of Ch
  • Statistical Analys
  • Dangerous Level o
  • 中日对照新闻稿
  • 俄汉语外来词使用的主要领域对比分析
  • 两种形式的主谓一致
  • 韩语论文大纲修改
  • 중국&#
  • 俄语外来词的同化问题
  • 北海道方言中自发助动词らさる的用法与
  • 论高职英语教育基础性与实用性的有机结
  • 论高职幼师双语口语技能的培养
  • 论高职幼师英语口语技能的培养
  •     自分・この眼&
  • 成蹊大学大学院 経済経営研究科
  • アクア・マイクロ
  • 公共経営研究科修士論文(政策提言論文
  • 基于学习风格的英语学习多媒体课件包
  • 后殖民时期印度英语诗歌管窥
  • 汉语互动致使句的句法生成
  • 笔译价格
  • 携帯TV電話の活用
  • 英語学習におけるノートテイキング方略
  • 強化学習と決定木によるエージェント
  • エージェントの行動様式の学習法
  • 学習エージェントとは
  • 強化学習と決定木学習による汎用エージ
  • 講演概要の書き方
  • 对学生英语上下义语言知识与写作技能的
  • 英汉词汇文化内涵及其翻译
  • 论大学英语教学改革之建构主义理论指导
  • 国内影片片名翻译研究综观及现状
  • 平成13年度経済情報学科特殊研究
  • Comparison of curr
  • 英文论文任务书
  • This project is to
  • the comparison of
  • デジタルペンとRFIDタグを活用した
  • 無資格者無免許・対策関
  • 創刊の辞―医療社会学の通常科学化をめ
  • gastric cancer:ade
  • 揭示政治语篇蕴涵的意识形态
  • 试论专业英语课程项目化改革的可行性
  • 多媒体环境下的英语教学交际化
  • 翻译认知论
  • 读高桥多佳子的《相似形》
  • 以英若诚对“Death of A S
  • 论沈宝基的翻译理论与实践
  • 论语域与文学作品中人物会话的翻译
  • 浅析翻译活动中的文化失衡
  • 谈《傲慢与偏见》的语言艺术
  • 论语言结构差异对翻译实效性的影响
  • 英语传递小句的认知诠释
  • 英语阅读输入的四大误区
  • 在语言选择中构建社会身份
  • 私たちが見た、障害者雇用の今。
  • 震災復興の経済分析
  • 研究面からみた大学の生産性
  • 喫煙行動の経済分析
  • 起業の経済分析
  • 高圧力の科学と技術の最近の進歩
  • 「観光立国」の実現に向けて
  • 資源としてのマグロと日本の動向
  • 揚湯試験結果の概要温泉水の水質の概要
  • 計量史研究執筆要綱 
  • 日中友好中国大学生日本語科卒業論文
  • 제 7 장
  • 전자&
  • 現代國民論、現代皇室論
  • 記紀批判—官人述作論、天皇宗家論
  • 津田的中國觀與亞洲觀
  • 津田思想的形成
  • 反思台灣與中國的津田左右吉研究
  • 遠隔講義 e-learning
  • 和文タイトルは17ポイント,センタリ
  • Design And Impleme
  • Near-surface mount
  • 중국 &
  • 韩国泡菜文化和中国的咸菜文化
  • 무한&#
  • 수시 2
  • 韩流流向世界
  • 무설&#
  • 要想学好韩语首先得学好汉语
  • 사망&#
  • Expression and Bio
  • Increased Nuclear
  • 论女性主义翻译观
  • 健康食品の有効性
  • 日语的敬语表现与日本人的敬语意识
  • 日语拒否的特点及表达
  • Solve World’s Prob
  • 韩汉反身代词“??”和“自己”的对比
  • 韩汉量词句法语义功能对比
  • 浅析日语中的省略现象
  • 浅谈日语中片假名的应用
  • 土木学会論文集の完全版下印刷用和文原
  • 英语语调重音研究综述
  • 英汉语言结构的差异与翻译
  • 平等化政策の現状と課題
  • 日本陸軍航空史航空特攻
  • 商务日语专业毕业生毕业论文选题范围
  • 家庭内暴力の現象について
  • 敬语使用中的禁忌
  • Treatment of high
  • On product quality
  • Functional safety
  • TIDEBROOK MARITIME
  • 日文键盘的输入方法
  • 高职高专英语课堂中的提问策略
  • 对高校学生英语口语流利性和正确性的思
  • 二语习得中的文化错误分析及对策探讨
  • 高职英语专业阅读课堂教学氛围的优化对
  • 趣谈英语中的比喻
  • 浅析提高日语国际能力考试听力成绩的对
  • 外语语音偏误认知心理分析
  • 读格林童话《小精灵》有感
  • “新世纪”版高中英语新课教学导入方法
  • 初探大学英语口语测试模式与教学的实证
  • 中加大学生拒绝言语行为的实证研究
  • 目的论与翻译失误研究—珠海市旅游景点
  • 对学生英语上下义语言知识与写作技能的
  • 英语水平对非英语专业研究生语言学习策
  • 英语教学中的文化渗透
  • 中学教师自主学习角色的一项实证研究
  • 叶维廉后期比较文学思想和中诗英译的传
  • 钟玲中诗英译的传递研究和传递实践述评
  • 建构主义和高校德育
  • 论习语的词法地位
  • 广告英语中的修辞欣赏
  • 从奢侈品消费看王尔德及其唯美主义
  • 论隐喻的逆向性
  • 企盼和谐的两性关系——以劳伦斯小说《
  • 论高等教育大众化进程中的大学英语教学
  • 试论《三四郎》的三维世界
  • 李渔的小说批评与曲亭马琴的读本作品
  • 浅谈中国英语的表现特征及存在意义
  • 湖南常德农村中学英语教师师资发展状况
  • 海明威的《向瑞士致敬》和菲茨杰拉德
  • 围绕课文综合训练,培养学生的写作能力
  • 指称晦暗性现象透析
  • 西部地区中学生英语阅读习惯调查
  • 论隐喻的逆向性
  • 认知体验与翻译
  • 试析英诗汉译中的创造性
  • 言语交际中模糊语浅议
  • 认知体验与翻译
  • 关于翻译中的词汇空缺现象及翻译对策
  • 从互文性视角解读《红楼梦》两译本宗教
  • 从目的论看中英动物文化词喻体意象的翻
  • 高校英语语法教学的几点思考
  • 高校体艺类学生外语学习兴趣与动机的研
  • 大学英语自主学习存在的问题及“指导性
  • 从接受美学看文学翻译的纯语言观
  • 《红楼梦》两种英译本中服饰内容的翻译
  • 法语对英语的影响
  • 影响中美抱怨实施策略的情景因素分析
  • 代写需求表
  • 跨文化交际中称赞语的特点及语言表达模
  • 实现文化教育主导外语教育之研究
  • 试论读者变量对英语阅读的影响
  • 从文化的角度看英语词汇中的性别歧视现
  • 合作原则在外贸函电翻译中的运用
  • Default 词义探悉
  • 从图示理论看英汉翻译中的误译
  • 许国璋等外语界老前辈所接受的双语教学
  • “provide” 和 “suppl
  • 由英汉句法对比看长句翻译中的词序处理
  • 1000名富翁的13条致富秘诀中英对
  • 英语中18大激励人心的谚语中英对照
  • 反省女性自身 寻求两性和谐---评
  • 浅析翻译中的“信”
  • 集体迫害范式解读《阿里》
  • 横看成岭侧成峰-从美学批评角度解读《
  • 福柯的话语权及规范化理论解读《最蓝的
  • 播客技术在大学英语教学中的应用
  • 如何在山区中等专业学校英语课堂实施分
  • 奈达与格特翻译理论比较研究
  • 语篇内外的衔接与连贯
  • Economic globaliza
  • 用概念整合理论分析翻译中不同思维模式
  • 英语新闻语篇汉译过程中衔接手段的转换
  • 对易卜生戏剧创作转向的阐释
  • 动词GO语义延伸的认知研究
  • 反思型教师—我国外语教师发展的有效途
  • 输入与输出在词汇学习中的动态统一关系
  • 教育实践指导双方身份认同批判性分析
  • 中英商务文本翻译异化和归化的抉择理据
  • 从艺术结构看《呼啸山庄》
  • 从儒家术语“仁”的翻译论意义的播撒
  • 论隐喻与明喻的异同及其在教学中的启示
  • 话语标记语的语用信息在英汉学习型词典
  • 论森欧外的历史小说
  • 翻译认知论 ——翻译行为本质管窥
  • 中美语文教材设计思路的比较
  • 美国写作训练的特点及思考
  • UP语义伸延的认知视角
  • 成功的关键-The Key to S
  • 杨利伟-Yang Liwei
  • 武汉一个美丽的城市
  • 对儿童来说互联网是危险的?
  • 跨文化交际教学策略与法语教学
  • 试论专业英语课程项目化改革的可行性-
  • 论沈宝基的翻译理论与实践
  • 翻译认知论——翻译行为本质管窥
  • 母爱的虚像 ——读高桥多佳子的《相似
  • 浅析英语广告语言的特点
  • 中国の株価動向分析
  • 日语拒否的特点及表达
  • 日语的敬语表现与日本人的敬语意识
  • 浅析日语中的省略现象
  • 浅谈日语中片假名的应用
  • 浅谈日语敬语的运用法
  • 浅谈日语会话能力的提高
  • ^论日语中的年轻人用语
  • 敬语使用中的禁忌
  • 关于日语中的简略化表达
  • 关于日语的委婉表达
  • The Wonderful Stru
  • Of Love(论爱情)
  • SONY Computer/Notb
  • 从加拿大汉语教学现状看海外汉语教学
  • MLA格式简要规范
  • 浅析翻译类学生理解下的招聘广告
  • 日本大学排名
  • 虎头虎脑
  • 杰克逊涉嫌猥亵男童案首次庭审
  • Throughout his car
  • June 19,1997: Vict
  • 今天你睡了“美容觉”吗?
  • [双语]荷兰橙色统治看台 荷兰球员统
  • Father's Day(异趣父亲节
  • 百佳电影台词排行前25名
  • June 9,1983: Thatc
  • June 8, 1968: Robe
  • 60 players mark bi
  • June 6, 1984: Indi
  • 日本の専門家が漁業資源を警告するのは
  • オーストリア巴馬は模範的な公民に日本
  • 日本のメディアは朝鮮があるいは核実験
  • 世界のバレーボールの日本の32年の始
  • 日本の国債は滑り降りて、取引員と短い
  • 广州紧急“清剿”果子狸
  • 美国“勇气”号登陆火星
  • 第30届冰灯节哈尔滨开幕
  • 美国士兵成为时代周刊2003年度人物
  • BIRD flu fears hav
  • 中国チベット文化週間はマドリードで開
  • 中国チベット文化週間はマドリードで開
  • 中国の重陽の文化の発祥地──河南省西
  • シティバンク:日本の国債は中国の中央
  • イギリスは間もなく中国にブタ肉を輸出
  • 古いものと新しい中国センター姚明の失
  • 中国の陝西は旅行して推薦ӥ
  • 中国の電子は再度元手を割って中国の有